Световни новини без цензура!
Редът на Скарлет Йохансон с изкуствен интелект има ехо от лошите стари времена на Силиконовата долина
Снимка: bbc.com
BBC News | 2024-05-22 | 02:27:24

Редът на Скарлет Йохансон с изкуствен интелект има ехо от лошите стари времена на Силиконовата долина

„ Движи се бързо и разбивай нещата “ е мото, което продължава да преследва софтуерния бранш, към 20 години откакто беше измислено от младия Марк Зукърбърг.

Тези пет думите започнаха да символизират Силиконовата котловина в най-лошия й тип - композиция от безмилостна упоритост и много спираща дъха надменност - иновация, ориентирана към облага, без боязън от последици.

Бях напомнен за тази фраза тази седмица, когато госпожа Йохансон съобщи, че и тя, и нейният сътрудник са отказали тя да бъде гласът на новия артикул за ChatGPT – и по-късно, когато беше разкрито, по този начин или другояче звучеше тъкмо като нея. OpenAI отхвърля това да е умишлена реплика.

Това е класическа илюстрация на тъкмо това, от което толкоз се тревожат креативните промишлености - да бъдат имитирани и в последна сметка сменени от изкуствен интелект.

Миналата седмица Sony Music, най-големият музикален издател в света, до Гугъл, Microsoft и OpenAI с искане да знае дали някои от песните на неговите реализатори са били употребявани за създават AI системи, заявявайки, че нямат позволение за това.

Във всичко това има ехтене от старите мачо колоси от Силиконовата котловина. Търсене на амнистия, а не на позволение като всекидневен бизнес проект.

Но софтуерните компании от 2024 година са извънредно склонни да се дистанцират от тази известност.

OpenAI не е завършен от този шаблон. Първоначално е основан като организация с нестопанска цел, която ще влага всички спомагателни облаги, вложени назад в бизнеса.

През 2019 година, когато образува насочено към облагите поделение, те споделиха, че облагата ще бъде ръководена от нестопанската страна и ще има ограничаване наложени върху възвръщаемостта, която вложителите могат да завоюват.

Не всички бяха удовлетворени от тази смяна - сподели се, че тя е била основна причина зад решението на първичния съосновател Илон Мъск да си тръгне.

Когато изпълнителният шеф на OpenAI Сам Алтман беше ненадейно уволнен от личния си ръб в края на предходната година, една от теориите беше, че той желае да се отдалечи още повече от първичната задача. Никога не разбрахме сигурно.

Но даже в случай че OpenAI е станал по-ориентиран към облагите, той към момента би трябвало да се изправи пред своите отговорности.

В света на правенето на политики съвсем всички са съгласни, че са нужни ясни граници, с цел да се поддържат компании като OpenAI в сходство, преди да се случи злополучие.

Sдосега AI колосите значително играят на хартия. На първата в света среща на върха за сигурността на ИИ преди шест месеца куп софтуерни шефове подписаха непринуден ангажимент за основаване на виновни, безвредни артикули, които да усилят оптимално изгодите от ИИ технологията и да сведат до най-малко рисковете.

Тези опасности, в началото разпознати от уредниците на събитието, бяха същински кошмари. Когато попитах тогава за по-приземените закани за хората, подбудени от AI принадлежности, които ги дискриминират или ги заместват на работните им места, ми беше много твърдо казано, че това събиране е отдадено на разискването единствено на безспорните най-лоши сюжети – това беше Терминатор, Съдният ден, AI-goes-rogue-and-destroys-humanity teritorij.

Шест месеца по-късно, когато срещата на върха се събра още веднъж, думата „ сигурност ” бяха отстранени напълно от заглавието на конференцията.

Миналата седмица план на отчет на държавното управление на Обединеното кралство от група от 30 самостоятелни специалисти стигна до заключението, че изкуственият разсъдък може да генерира биологично оръжие или осъществяване на комплицирана хакерска атака. Вероятността хората да изгубят надзор над ИИ е „ мощно противоречива “, се споделя в него. опасността от AI инструментите беше, че те ще заменят работни места или не могат да разпознаят цветовете на кожата. Експертът по етиката на изкуствения разсъдък доктор Руман Чоудхури споделя, че това са „ същинските проблеми “.

Институтът за сигурност на изкуствения разсъдък отхвърли да каже дали е тествал за сигурност някой от новите изкуствен интелект артикули, които са пуснати на пазара през последните дни; изключително GPT-4o на OpenAI и Project Astra на Гугъл, като и двете са измежду най-мощните и усъвършенствани генеративни AI системи, налични за обществеността, които съм виждал до момента. Междувременно Microsoft показа нов преносим компютър, съдържащ AI хардуер – началото на AI инструментите, физически вградени в нашите устройства.

Независимият отчет също по този начин показва, че има понастоящем няма благонадежден метод да разберем тъкмо за какво AI инструментите генерират резултатите, които вършат – даже измежду разработчиците – и че откритата процедура за тестване на сигурността на Red Teaming, при която оценителите съзнателно се пробват да накарат AI инструмент да се държи погрешно, няма най-хубави на практика насоки.

На последващата среща на високо ниво, която се организира тази седмица, проведена взаимно от Обединеното кралство и Южна Корея в Сеул, компаниите се ангажираха да отсрочат артикул, в случай че не дава отговор на избрани прагове за сигурност - само че те няма да бъдат избрани до идващото събиране през 2025 година

Някои се опасяват, че всички тези задължения и обещания не дават отговор отидете задоволително надалеч.

„ Доброволческите съглашения всъщност са просто средство за компаниите да означават личната си домашна работа “, споделя Андрю Стрейт, асоцииран шеф на института Ada Lovelace, самостоятелна изследователска организация. „ По създание това не е сурогат на правно обвързващи и използвани правила, които са нужни за стимулиране на виновното развиване на тези технологии. “

OpenAI преди малко разгласява своя лична 10-точкова сигурност развой, към който твърди, че се е заел - само че един от неговите старши инженери, фокусирани върху сигурността, неотдавна подаде оставка, като написа на X, че отделът му е „ плавал против вятъра “ вътрешно.

„ През последните години културата на сигурност и процесите останаха на назад във времето пред лъскавите артикули, " разгласява Ян Лейке.

Има, несъмнено, други екипи в OpenAI, които не престават да се концентрират върху сигурността и сигурността.

Понастоящем обаче няма формален, самостоятелен контрол върху това, което някой от тях в действителност прави.

„ Нямаме гаранция, че тези компании съблюдават уговорките си “, споделя професор Дам Уенди Хол, един от водещите компютърни учени в Обединеното кралство.

„ Как да ги държим виновни за това, което споделят, както вършим с фармацевтичните компании или в други браншове, където има висок риск? “

Може също по този начин да открием, че тези могъщи софтуерни водачи стават по-малко податливи, откакто пристигна напън и доброволните съглашения станат малко по-изпълними.

Когато държавното управление на Обединеното кралство съобщи, че желае властта да спре внедряването на функционалности за сигурност от огромните софтуерни компании, в случай че има капацитет те да компрометират националната сигурност, Apple заплаши да отстрани услугите от Англия, описвайки това като от законодателите.

Законодателството мина и до момента Apple към момента е тук.

Европейският Законът за изкуствения разсъдък на Съюза преди малко беше подписан и е по едно и също време първият и най-строгият закон в света. Има и строги наказания за компании, които не ги съблюдават. Но това основава повече работа за потребителите на ИИ, в сравнение с самите колоси на ИИ, споделя Надер Хенайн, вицепрезидент анализатор в Gartner.

„ Бих споделил, че болшинството [от Разработчиците на неестествен интелект] надценяват въздействието, което Законът ще има върху тях “, споделя той.

Всички компании, употребяващи принадлежности на изкуствен интелект, ще би трябвало да ги категоризират и да ги правят оценка по рисков метод - и компаниите за изкуствен интелект, които са дали изкуствения разсъдък, ще би трябвало да дават задоволително информация, с цел да могат да създадат това, изяснява той.

Но това не значи, че те са отвън куката.

„ Трябва да преминем към правна регулация с времето, само че не можем да бързаме “, споделя проф. Хол. „ Установяването на правила за световно ръководство, които всички одобряват, е в действителност мъчно. “

„ Също по този начин би трябвало да се уверим, че това е в действителност международно, а освен западния свят и Китай, който ние пазиме. “

Онези, които са участвали на срещата на високо ниво за ИИ в Сеул, споделят, че се е почувствало потребно. Беше „ по-малко навирен “ от Bletchley, само че с повече полемики, сподели един присъстващ. Интересното е, че заключителната декларация на събитието е подписана от 27 страни, само че не и от Китай, макар че имаше персонално представители там.

Най-важният въпрос, както постоянно, е, че регулирането и политиката се движат доста по-бавно от нововъведенията.

Проф Хол има вяра, че „ звездите се изравняват “ на държавни равнища. Въпросът е дали софтуерните колоси могат да бъдат уверени да ги изчакат.

е новият дом на уеб страницата и приложението за най-хубави разбори и експертиза от нашите най-хубави публицисти. Под отличителна нова марка ще ви предоставим свежи гледни точки, които провокират догатки, и задълбочени отчети за най-големите проблеми, с цел да ви помогнем да разберете един комплициран свят. И ние ще демонстрираме провокиращо размисъл наличие от BBC Sounds и iPlayer също. Започваме с малко, само че мислим огромно и желаеме да знаем какво мислите - можете да ни изпратите отзивите си, като щракнете върху бутона по-долу.

Източник: bbc.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!